花費 64 ms
關於交叉熵(cross entropy),你了解哪些

二分~多分~Softmax~理預 一、簡介  在二分類問題中,你可以根據神經網絡節點的輸出,通過一個激活函數如Sigmoid,將其轉換為屬於某一類的概率,為了給出具體的分類結果,你可以取0.5作為 ...

Thu Feb 14 02:13:00 CST 2019 0 10596
聚類算法中的距離度量有哪些

一、你知道聚類中度量距離的方法有哪些嗎?  1)歐式距離  歐氏距離是最易於理解的一種距離計算方法,源自歐氏空間中兩點間的距離公式。即兩點之間直線距離,公式比較簡單就不寫了  應用場景:適用於求 ...

Fri Jul 27 18:56:00 CST 2018 0 5049
服從正態分布的樣本似然估計的期望和方差

一、題目簡述  假設樣本服從正態分布:\(N(\mu,\sigma^2)\),寫出似然估計的期望和方差  極大似然函數是什么意思呢?  1)寫出似然函數  2)取對數    ...

Sun Mar 03 00:16:00 CST 2019 0 3143
不平衡數據集的處理方法

(定義,舉例,實例,問題,擴充,采樣,人造,改變) 一、不平衡數據集  1)定義   不平衡數據集指的是數據集各個類別的樣本數目相差巨大。以二分類問題為例,假設正類的樣本數量遠大於負類的樣本數量 ...

Fri Jan 18 18:32:00 CST 2019 2 2452
1x1的卷積核有什么作用

信道壓縮~通~通~減 一、1 X 1的卷積核作用  所謂信道壓縮,Network in Network是怎么做到的?  對於如下的二維矩陣,做卷積,相當於直接乘以2,貌似看上去沒什么意義: ...

Fri Apr 26 18:09:00 CST 2019 0 1096
關於激活函數

什么~為什么~哪些(RSST) 一、什么是激活函數  如下圖,在神經元中,輸入的 inputs 通過加權,求和后,還被作用了一個函數,這個函數就是激活函數 Activation Function: ...

Wed Feb 13 23:14:00 CST 2019 0 975
LR和SVM的區別

一、相同點  第一,LR和SVM都是分類算法(SVM也可以用與回歸)  第二,如果不考慮核函數,LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的。   這里要先說明一點,那就是L ...

Fri Jul 13 05:58:00 CST 2018 0 1063
損失函數及經驗風險和結構風險

一、常見的損失函數  常見的損失函數見這里:https://www.cnblogs.com/always-fight/p/9099704.html 二、關於經驗風險和結構風險最小化  模型 ...

Thu Aug 16 02:40:00 CST 2018 0 756

 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM